#智能體 AI
“龍蝦”引爆A股行情:AI革命前夜,資本提前下菜
▎技術與泡沫平行,誰在渾水摸魚?在以開源 AI 智能體 OpenClaw 為代表的“養龍蝦”概念持續刷屏下,3月9日,“龍蝦”主線一時風頭無兩,相關算力、雲服務及AI Agent產業鏈個股逆市上揚,優刻得“20cm”漲停,青雲科技漲超15%,資金密集湧入。將這場熱度視作技術與資本的“雙向奔赴”,此時仍顯樂觀。在技術路線尚未明朗、競品與替代方案層出不窮之際,二級市場已迫不及待地將“OpenClaw時刻”打造為新一輪AI行情的標竿。這場“龍蝦行情”,需要看盤面——誰在真正在“養蝦”、資金如何佈局;也要看技術與產業——這套路線是否足夠成熟、是否不可替代;也要回到最樸素的一點:在安全邊界和商業模式仍然模糊的當下,這只“龍蝦”究竟能為現實世界創造多少可持續的價值。OpenClaw 引爆漲停資金全線搶籌在亞太股市全線走弱背景下,OpenClaw 概念形成了鮮明的逆勢類股效應。9日,優刻得盤中直線拉升,“20cm”漲停,成為“龍蝦行情”的頭部標竿,多隻算力及雲服務個股也同步放量上攻,漢得資訊(300170.SZ)、龍芯中科(688047.SH)、青雲科技(688316.SH)等集體沖高,雲從科技、奇安信均漲超5%,類股賺錢效應顯著。拆解來看,資金“養蝦”主要圍繞四條主線:雲部署與生態:OpenClaw 主打“本地優先”,但各大雲廠商(騰訊雲、阿里雲、華為雲、天翼雲、移動雲等)紛紛接入。一鍵部署方面,優刻得提供 OpenClaw 雲鏡像,青雲科技用雲原生方案做輕量化落地,宏景科技參與騰訊雲端的 OpenClaw 項目。算力基礎設施:Agent 使用率和複雜度提升帶來 Token 消耗激增,算力剛性需求上升,國產算力有望取得優勢。代表公司有:浪潮資訊(AI 伺服器龍頭,雲端+本地適配)、潤澤科技(純液冷智算中心)、中科曙光(智算中心+液冷技術)。終端晶片與本地部署:OpenClaw 對端側提出高頻寬、低時延、高密度、低功耗的新要求,為國產 AI 晶片提升市佔率創造機會。AI 智能體應用:OpenClaw 有望顯著降低工具呼叫和自動化執行門檻,加速 AI 智能體在 C 端場景滲透與生態完善。市場熱度之外,投資者在互動平台上密集追問上市公司與OpenClaw的業務關聯,多家企業也集中回應相關進展。優刻得的動作最為激進,其1月下旬率先推出 OpenClaw 雲端鏡像,即 OpenClaw(曾用名 Clawdbot)的專屬鏡像,是行業內率先實現雲端部署的廠商之一;目前公司已在美國、新加坡、日本等多個海外節點上線,支援使用者快速建構“7×24 小時個人 AI 超級助手”。此外優刻得推出開箱即用的 OpenClaw 輕量應用雲主機,把原本需要命令列、多元件協同的複雜部署流程,做成了可視化操作的一鍵式產品。瑞芯微稱,公司RK3588、RK182X等多款晶片適合個人部署OpenClaw等AI Agent應用產品,當前已有基於公司RK3588並呼叫雲端大模型的AI Agent應用解決方案。同時,公司協處理器RK182X具備大算力、高頻寬優勢,支援各類智能終端裝置在本地部署大模型並快速獲得端側AI Agent能力,能夠更好地滿足使用者資料隱私安全、低延時響應等需求,實現自主操作和多工處理。中科創達表示,公司已完成開源AI智能體框架OpenClaw在旗下魔方派3與AIBOX兩大平台的全端深度適配及規模化部署。但同時提示“當前未對公司主營業務產生實質性影響”。北信源則介紹,公司自主研發的信源密信產品已完成OpenClaw適配對接,若有相關業務公司有能力憑藉技術儲備提供解決方案及服務。技術與泡沫平行市場情緒將 OpenClaw 打造成“AI 從會聊天走向會幹活”的標誌性事件,它在個人場景中表現可圈可點,也迅速培育出活躍的社區生態。但從技術成熟度看,其僅僅是AGI的雛形,距離真正的大規模穩定商用仍有明顯距離。技術架構上,OpenClaw在傳統大模型基礎上增加了兩個關鍵元件:一是執行引擎,將自然語言理解轉化為具體的系統呼叫;二是反饋回路,捕獲執行結果並形成理解-執行-感知的完整閉環。開源特性使OpenClaw能被任意爆改、部署、接入各類社交平台,在網際網路上迅速傳播,這也構成了其天生的安全漏洞。昨日工信部指出:OpenClaw開源AI智能體部分實例在默認或不當配置情況下存在較高安全風險,極易引發網路攻擊、資訊洩露等問題。一直以來,OpenClaw也被大量資深系統架構師與安全專家評估為一款極不成熟的軟體產品。其工程實現不僅違背了現代軟體設計的諸多基本原則,更在配置管理、記憶體最佳化與權限控制上存在致命缺陷,一旦被惡意利用或配置不當,可能導致資料洩露、財產損失甚至企業網路被入侵。穩定性方面,OpenClaw配置檔案脆弱、"空轉"問題依舊突出。其次,資源利用率不高,消耗較大,大模型本身缺乏狀態保留能力,為了實現所謂的“持久化記憶”與“一致性人格”,OpenClaw採取了最原始且最暴力的上下文注入方案,持續消耗Token。在資源受限的裝置上,模型載入、推理計算、任務執行的性能壓力會極具放大,於企業級應用而言,性價比並不理想。實踐表明,OpenClaw更適合周期性、短時長的任務,如每日資訊彙總、定時資料抓取。但對於需要長時間持續運行、狀態跟蹤、複雜邏輯判斷的後台任務,表現並不理想。此外開源本地 Agent 也有多種輕量替代品,目前Rust 版的 Agent 框架已經如雨後春筍,主打“輕量、本地、安全”的替代項目。並且更多部署門檻低的Claw也相繼出現,比如MaxClaw、KimiClaw等。眼下,輿論場中的“搶跑效應”愈演愈烈,互動平台上,投資者對“公司與 OpenClaw 的關係”的刷屏式追問,諸多算力、雲服務公司在試驗階段就享盡了估值紅利,層出不窮的“龍蝦概念股名單”“龍蝦產業鏈梳理”“誰是龍蝦核心受益股”內容,也放大了資金對題材的關注度和進攻意願。所以拋開行銷層面的喧囂,從盤面表現與輿論發酵節奏看,資金推動的痕跡清晰可見,屬於典型的“題材先行”——風口上的豬固然能飛,但“龍蝦”上岸之時,誰在“裸泳”超前炒作將一覽無餘。 (鈦媒體)
中國政府工作報告首提“智能經濟”,訊號強大
3月5日,中國國務院總理李強在政府工作報告中介紹今年政府工作任務時提出,打造智能經濟新形態。深化拓展“人工智慧+”,促進新一代智能終端和智能體加快推廣,推動重點行業領域人工智慧商業化規模化應用,培育智能原生新業態新模式。支援人工智慧開源社區建設,促進開源生態繁榮。實施超大規模智算叢集、算電協同等新基建工程,加強全國一體化算力監測調度,支援公共雲發展。加快發展衛星網際網路。打造“5G+工業網際網路”升級版。深化資料資源開發利用,健全資料要素基礎制度,建設高品質資料集。完善人工智慧治理。3月5日,在十四屆全國人大四次會議首場“部長通道”集中採訪活動上,工業和資訊化部部長李樂成表示,2026年工信部將按照政府工作報告要求,大力推動人工智慧(AI)和製造業雙向奔赴。中國產業門類齊全,創新人才眾多,創新生態不斷改善,我們有信心,堅信必將有更多的世界級智能產品在這片熱土上生產出來。要努力推動AI電腦、AI手機、智能家居,更好地滿足人民群眾對美好生活的需求。要全力推進新一代人工智慧產品的攻關和迭代更新,包括腦機介面、自動駕駛汽車、人形機器人,推動科技攻關、技術迭代。大力支援發展智能農業機械、智能醫療器械,讓更多智能產品滿足各行各業各領域的需要。2024年,“人工智慧+”行動首次被寫入政府工作報告。2025年政府工作報告提出,持續推進“人工智慧+”行動。如今,“人工智慧+”連續三年寫入政府工作報告,而“智能經濟”則是首次提及。智能經濟是什麼?國家發展改革委國家資訊中心人工智慧處副處長、研究員易成岐對21世紀經濟報導記者表示,智能經濟是以人工智慧為核心驅動力的新型經濟形態,將全面重塑生產、分配、交換、消費等經濟活動各環節。國研新經濟研究院創始院長朱克力對21世紀經濟報導記者表示,“智能經濟”首次寫入政府工作報告,被擺在更加突出的戰略位置。報告明確提出要“打造智能經濟新形態”,意味著智能經濟成為新質生產力發展的核心抓手與經濟轉型的關鍵突破。2025年8月,《國務院關於深入實施“人工智慧+”行動的意見》(以下簡稱《意見》)發佈,其中曾提出2027年、2030年、2035年三個階段目標,每個階段的目標均明確提及“智能經濟”。從2027年看,瞄準的目標是“智能經濟核心產業規模快速增長”,從“十五五”收官之年看,到2030年,“智能經濟成為中國經濟發展的重要增長極”。易成岐指出,未來五年,隨著人工智慧向通用人工智慧(AGI)和超級人工智慧(ASI)加速演進,人工智慧的感知、決策、行動等核心能力水平將繼續取得突破,智能經濟的兩大組成部分“智能產業化”與“產業智能化”將成為經濟發展的重要增長極。人工智慧將超越傳統工具輔助的基本定位,加速向新型基礎設施方向發展,將全面重構產業組織形態和商業運行邏輯,“智能無處不在”將成為經濟社會發展常態,生產力有望迎來革命性躍遷,生產關係將發生深層次變革,社會形態在高度智能化的同時將更具溫度。值得注意的是,易成岐提到,“十五五”時期,智能經濟對GDP的貢獻將完成從“增量補充”到“核心支柱”的關鍵轉變,為推動高品質發展、服務支撐全面建設社會主義現代化國家提供強勁動能。《意見》發佈以來,“智能經濟”一詞時常被用於和“數字經濟”進行比較。此前,北京師範大學京師特聘教授、博士生導師焦豪對《意見》的解讀中提到,相比於數字經濟,新一代人工智慧湧現的兩大新特徵(自主決策、自主行動)驅動智能經濟新形態湧現,重塑生產要素、服務體驗與競爭邏輯的運行範式,引發經濟社會的深刻變革。在朱克力看來,智能經濟是數字經濟的更高形態,把“智能”作為新一代經濟形態的核心特徵,意味著我們的政策重心,從過去的資訊化、數位化,全面轉向智能化。智能經濟不再是輔助角色,而是“十五五”開局之年的主力增長極。可以說,這一表述跳出單一技術應用維度,將人工智慧與實體經濟、數字基建、產業生態深度融合,通過深化“人工智慧+”行動,推動智能終端、智能體的商業化規模化落地,培育智能原生新業態。同時,以超大規模智算叢集、衛星網際網路等新基建為支撐,完善人工智慧治理與開源生態,讓智能技術從“工具”升級為經濟發展的“底層邏輯”。未來需要如何發力?易成岐指出,一是要在統籌謀劃和頂層設計上下功夫,加快形成部門與地方、政府與市場、國企與民企等多方合力,持續最佳化智能經濟發展環境,出台更具針對性、更具操作性、更契合實際需求的政策舉措。二是要堅持供需兩端協同發力,更好發揮“兩重”“兩新”政策效能,加大算力、資料、演算法、場景、資金等資源要素供給,充分挖掘人工智慧行業應用和新型智能消費需求,不斷推動人工智慧技術取得新的突破,培育一批易用好用、普惠便捷的人工智慧產品和服務體系。三是要鼓勵創新探索並激發創新熱情,支援有條件的地方和企事業單位圍繞智能經濟積極實踐創新,加快典型案例、創新模式和先進經驗複製推廣,通過標竿示範帶動人工智慧向更廣領域、更深場景、更高水平滲透應用。四是要加快培育創新型複合型人才,推動高校、科研院所與企業深化人才交流合作、促進人才合理流動,為智能經濟高品質發展提供堅實人才保障。 (21世紀經濟報導)
Google最新預測:2026,普通人工作方式將徹底改變
你有沒有過這種體驗?寫周報時,翻遍五六個系統扒資料;跟客戶溝通時,反覆解釋同一個問題;處理工作流程時,卡在跨部門對接的環節動彈不得……我們總說AI能提高效率,但以前的AI,更像個“問答機器”——你問它才答,你不說它就躺平。但Google  Cloud剛出的《AI智能體趨勢2026》報告說,2026年這一切要變了。AI會從“只會回答問題的工具”,變成能聽懂目標、拆任務、跨系統自己幹活的“得力幫手”(也就是報告裡說的AI智能體)。這不是遙遠的暢想,而是已經在發生的現實。今天就跟你掰開揉碎了聊:這波AI變革到底會怎麼改咱們的工作,普通人該怎麼抓住機會?核心轉變從人親自幹活到人管AI幹活這波AI變革最核心的變化,不是“幹活更快了”,而是“幹活的方式變了”。以前咱們談AI,總說“幫人把事做快”——比如AI幫你寫初稿、算資料,最後還是得你逐字改、逐題核對。但2026年的AI智能體,厲害在“能自主搞定一整套事”:你只要告訴它“要達成什麼目標”,它會自己拆分成小任務,呼叫公司的各種系統,一步步推進,最後給你一個結果。隨之而來的,是咱們的角色大變身:從“親自執行的打工人”,變成“指揮AI的管理者”。打個比方,以前做市場經理,得自己寫文案、找資料、盯競品、做報告,一天忙得腳不沾地。2026年,你手下會有五個“AI專屬助理”:資料助理:扒遍公司內外的結構化資料,找出市場趨勢;分析助理:24小時盯競品動態、社交媒體口碑,每天給你發一頁核心洞察;內容助理:按公司的品牌語氣,寫好社交媒體文案和部落格初稿;創意助理:給文案配圖片、剪視訊;報告助理:每周自動拉取campaign資料,生成分析總結。你要做的,不是自己寫文案、找資料,而是:告訴它們這周的核心目標(比如“推廣新產品,吸引年輕使用者”),給點策略指引(比如“重點突出性價比”),最後檢查一下結果有沒有問題,拍板定奪就行。說白了,AI把重複、繁瑣的執行活全包了,咱們只需要聚焦“定方向、做判斷、把關結果”。而且這不是空想。資料顯示,現在已經有52%的公司,把AI智能體用在了生產環境裡:客戶服務、市場營運、技術支援、產品創新,到處都有它們的身影。比如全球最大的紙漿製造商Suzano,用AI智能體把員工的自然語言(比如“查一下某類物料的庫存”)變成系統能識別的查詢指令,5萬名員工查資料的時間直接減少95%;電信公司TELUS更狠,5.7萬名員工日常用AI,平均每次互動能省40分鐘。五大趨勢未來,AI智能體將滲透到工作的方方面面如果說核心轉變是“道”,那這五大趨勢就是“術”。我們來看看這些AI幫手會出現在那些場景,怎麼改變咱們的工作和生活。1.每個員工都有“專屬AI助理”:個人能力直接翻倍以前的AI工具,要麼是公司統一配的“大雜燴”,要麼得自己找外掛拼湊,用起來特別彆扭。未來,每個員工都會有“量身定製”的AI助理。這個助理懂公司的業務語境:能訪問內部知識庫、客戶資料、歷史工作成果,不會像通用AI那樣“說外行話”;它還能跟你配合默契:你把重複的活(比如整理會議紀要、跟進待辦事項、初步篩選郵件)交給它,自己專注於創新、談判、戰略思考這些“高價值活”。這裡要澄清一個誤區:不是有了AI助理,你就沒主動權了。它更像一個“超級執行者”,在你的指導和監督下幹活,比如寫合同,AI可以初稿,但最終的風險把控、條款談判,還是得你上。就像媒體行業,AI能幫你整理海量素材,但講什麼故事、怎麼講得動人,還是得靠人的創造力。2.公司流程變成“數字流水線”:從頭到尾自動跑如果說每個員工的AI助理是“單兵作戰”,那公司核心流程的AI智能體系統,就是“團隊協作”。以前公司的流程,比如採購、客戶支援、安全營運,都是“人對接系統、人對接人”,中間容易卡殼:比如網路出問題,得先讓技術部門檢測,再讓售後通知客戶,流程走下來大半天。未來,AI智能體系統會把這些環節串起來:發現網路異常後,AI先自動嘗試修復;修復不了,自動在現場服務系統建立工單;同時同步給客戶聯絡中心,告知客戶情況——整個過程跨系統、跨部門,不用人手動干預,人類只需要在關鍵節點監督、拍板。要實現這種“流水線”,靠的是兩個關鍵技術:A2A協議:相當於AI之間的“普通話”,不同開發者、不同框架的AI能互相溝通協作;MCP協議:相當於AI和公司系統的“資料線”,能讓AI安全訪問即時資料(比如庫存、訂單、客戶資訊),而不是靠“過時的知識庫”幹活。比如動物保健公司Elanco,用AI智能體處理每個生產基地2500多份非結構化檔案(比如政策、流程文件),自動分類、提取關鍵資訊、排查衝突,避免了因為資訊過期或衝突導致的生產力損失——以前這種損失在大型基地可能高達130萬美元。3.客戶服務從“被動響應”到“主動服務”:像有了“私人管家”你有沒有吐槽過傳統客服?重複說問題說三遍,轉人工要等半天,最後還沒解決。這就是“規則型自動化”的侷限,只能機械響應,不會靈活處理。未來的客戶服務AI智能體,會變成你的“私人管家”。它能記住你的歷史資訊:你上周買了件藍色毛衣,今天打電話,它一接就知道“你可能是要退換貨”;它還能主動解決問題:物流延誤了,不等你投訴,它已經查到是配送車壞了,自動安排明天最早配送,還給你充了10美元補償,發簡訊跟你確認時間。資料顯示,現在已經有49%的公司把AI智能體用在客戶服務上,這是最成熟的落地場景之一。比如家居建材品牌家得寶(Home Depot),做了個叫Magic  Apron的AI智能體,24小時線上給客戶提供裝修指導:怎麼裝櫃子、選那種油漆、看產品口碑,就像身邊有個裝修老師傅,隨叫隨到。而且這種“管家式服務”不侷限於消費端。比如工廠裡,AI智能體能分析生產資料,發現某個班次效率低,會主動給出建議:“可以調整裝置參數,或者給員工做個專項培訓”,相當於給管理者配了個“生產顧問”。4.安全防護:從“喊警報”到“自動滅火”現在的公司安全部門,最頭疼的是“告警疲勞”:每天收到成千上萬個安全告警,分析師根本看不過來,很可能漏掉真正的威脅。就像家裡裝了100個煙霧報警器,天天響,真著火了反而沒反應。未來的安全AI智能體,會從“只喊警報”變成“主動滅火”。它能自動分流告警(那些是誤報,那些是真威脅),調查分析(威脅來自那裡,影響多大),甚至在授權範圍內直接採取行動(比如攔截惡意攻擊、修復漏洞)。比如cybersecurity公司Specular,用AI智能體自動化攻擊面管理和滲透測試,幫企業快速找到安全漏洞;另一家公司Torq的AI安全分析師Socrates,能自動完成90%的一級分析任務,人工操作減少95%,響應速度快了10倍——安全人員不用再埋頭處理重複告警,能專注於設計防禦架構、獵捕高級威脅。5.能不能規模化賺錢,看員工會不會“管AI”最後這個趨勢,是所有變化的關鍵:AI智能體能不能給公司帶來持續價值,核心不是買了多少技術,而是員工會不會用。現在專業技能的“半衰期”越來越短,技術領域可能只有2年。也就是說,你現在學的技能,2年後可能就過時了。而AI的普及,會讓“會不會管AI”變成職場的核心競爭力。但現在有個落差:84%的員工希望公司多提供AI學習資源,但只有29%的員工覺得公司在積極推動AI應用。而且“AI管家”“AI編排者”這種新角色,市場上根本招不到現成的人,只能靠公司內部培養。怎麼培養?報告裡給了一套實用方法,核心是五個支柱:1.定目標:比如“讓100%員工在工作中用AI”,而且要可衡量;2.找支援:組建“高管贊助人(給錢給資源)+推動者(鼓動員工參與)+技術專家(落地解決方案)”的團隊;3.造氛圍:搞遊戲化交流、案例分享,獎勵創新用法;4.融日常:把AI融入工作流,比如辦內部駭客松、實踐挑戰,讓員工在幹活中學習;5.守規則:明確那些資料能給AI用,怎麼識別AI相關的安全威脅。比如電信公司TELUS和Google合作搞了AI技能培訓,結果96%的員工說用AI的信心提升了,員工會用AI了,公司的效率和創新力自然上來了。AI時代這五種人很難替代聊完了AI智能體的趨勢,咱們回到最實際的問題:既然AI能幫著幹活、跑流程,那普通人怎麼才能不被替代?答案很簡單:AI越能幹,就越需要有人“管著它、盯著它、落地它、擔著它”。未來3-5年是AI緩衝期,咱們只要找準自己的位置,就能在變革中站穩腳。總結下來,有五種角色永遠稀缺:1.決策者:給AI定方向的“指揮官”AI再厲害,也得有人告訴它“要做什麼、為什麼做”。就像前面說的市場經理,AI助理團隊再能打,也得靠你定核心目標——是推廣新產品還是維護老客戶,是突出性價比還是強調品牌感。以前咱們做執行,滿足於“按流程幹完”就行;現在得主動思考“為什麼要做這件事”“要達成什麼結果”。比如用AI寫方案,不能只說“幫我寫個推廣方案”,而要明確“針對25-30歲職場人,推廣一款通勤背包,核心賣點是輕便防水,預算5萬,要包含社交媒體和線下快閃活動”——這樣AI才能精準發力。說白了,決策者的核心價值是“定戰略、掌方向”,這是AI學不會的。它能執行,但沒法判斷“這件事該不該做”“這麼做對公司長期有沒有好處”。2.提問者:能問對問題的“掌舵人”如果暫時做不到決策者的高度,那從“會提問”開始也完全可以。提問的水平,直接決定了AI的輸出質量。很多人用AI之所以沒效果,就是提問太隨意。比如想讓AI生成配圖,只說“給我一張漂亮的圖”,結果全看運氣;但如果你說“我想表達‘異鄉人思念家鄉’,要用溫暖的水彩風格,畫面裡要有老房子、路燈、飄著的炊煙,能不能給我三個構圖建議並簡單解釋”,得到的結果大機率就是你想要的。提問的關鍵,是先想清楚自己的目標,再把目標拆成具體的問題。職場裡常說“會提問的人,思考一定不差”,AI時代更是如此——你能問出精準的問題,就意味著你已經想透了事情的關鍵。3.看門人:給AI把關的“質檢員”現階段的AI還有個小毛病:偶爾會“胡說八道”(也就是常說的“AI幻覺”),比如給你編一個不存在的資料,或者生成不符合公司規範的內容。這時候就需要“看門人”——用自己的專業經驗,判斷AI的輸出是不是靠譜。比如Elanco用AI處理生產檔案,AI能自動分類、提取資訊,但最終還是需要熟悉生產流程的員工把關:“這個條款是不是和最新政策衝突?這個資料是不是精準?”;再比如用AI寫合同,AI能搭框架,但涉及法律風險、核心權益的條款,還得靠法務人員稽核。看門人不用學新技能,只要你在自己的領域裡夠專業、夠細心,就能勝任。畢竟AI談論你不熟悉的領域時,你可能覺得它無所不知,但一碰到你的專業,它有沒有胡說,你一眼就能看出來。4.執行者:連接虛擬與現實的“實幹家”你可能會想:“執行的活不都被AI搶了嗎?”其實不然,AI能在電腦裡跑流程、做分析,但最終還是要有人把事情落到現實裡。比如物流智能體能安排好配送路線,但包裹還是得靠快遞員送到你手上;AI能給出工廠裝置的調整建議,但最終還是得靠技術人員去操作;AI能生成裝修方案,但敲牆、刷漆、裝櫃子,還是得靠工人師傅來幹。虛擬世界的決策,永遠需要現實世界的人來落地。而且現在很多公司看似人多,但真正腳踏實地幹活的執行者並不多,只要你靠譜、敏捷,能把AI的計畫變成實實在在的結果,就永遠有你的位置。5.責任人:為結果兜底的“擔當者”AI是工具,沒有辦法承擔責任。比如AI推薦的行銷方案出了問題,損失誰來擔?AI處理客戶資料時洩露了隱私,責任誰來負?這時候就需要“責任人”——對最終結果負責,出了問題敢擔當、能解決。未來,“誰來擔責”會成為AI時代的核心議題。比如合規智能體自動更新了工作流,但如果不符合監管要求,還是得有人站出來調整、承擔後果;客戶服務AI出了錯,還是得有人主動聯絡客戶道歉、彌補。無論你是決策者、提問者,還是看門人、執行者,最終都得是責任人。畢竟AI可以幫你幹活,但沒法替你擔責——而“敢擔當、能扛事”,永遠是職場最稀缺的品質。2026年的機會本質是“人的解放”聊了這麼多,你可能會問:AI這麼厲害,會不會取代人?答案是:不會取代人,但會取代“只會執行的人”。AI智能體不是搶工作,而是把我們從重複、繁瑣、耗精力的低價值工作中解放出來,讓你專注於只有人能做的事:創造性的思考、戰略性的決策、有同理心的溝通。這波變革的學習曲線可能有點陡,但機會屬於那些“現在就開始行動”的人:今天學著跟AI配合,學著定方向、提對問題、把好關、落好地、擔好責,明天你就是職場裡的“稀缺人才”,而不是被淘汰的“執行者”。說到底,2026年的AI變革,看起來是技術的升級,本質是“人的升級”。它讓企業變得更快、更智能,也讓每個人都有機會發揮自己的天賦和創造力。未來決定現在。看清未來將發生什麼,才能真正明白當下應該做什麼。我們認為,未來由四個關鍵領域塑造:哲學、AI科技、經濟與政治。為什麼是這四個?哲學是元起點,是意義與方向的錨點,為一切行動提供終極燃料;科技(尤其是AI)是文明進步的底座,是驅動世界向前的“發動機”;經濟是轉化器,它把科技力量轉化為真實的財富與市場機會;政治是適配性結構,它給哲學、科技與經濟提供運行框架與秩序。哲學為根,科技為器,經濟為用,政治為治。這四者環環相扣,層層支撐,相互交織,在動態的演進中共同推動現實走向未來。 (前瞻經濟學人)
AI的下一步:智能體
人的智能有三個方面:資訊的收集、資訊的處理產生認知、基於認知的行動。大語言模型目前主要的應用形態是ChatGPT這樣的聊天機器人(Chatbot),能力集中在前兩個方面。但更加有用的機器智能不只停留在“理解”和“說話”,如果能像一個或一群優秀的人才那樣幫我們“做事”,顯然能創造更大的價值。這就需要AI智能體(Agent)。智能體是能做事的AI。LLM是近幾年AI領域最重要的發展。已經在語言理解與生成、對話互動以及知識整合等方面展示出超凡能力,但它是“缸中大腦”——擅長思考、分析與回答問題,卻並不能真正地做事情。而在真實世界,大多數認知活動並不止於“給出答案”,而是要有完整的“認知-行動”閉環:我們要求AI得能夠自主的拆解複雜需求,規劃流程,呼叫工具和資源,實現從感知到決策再到執行的完整循環;進一步我們還希望AI的行動能夠超出電腦和網際網路領域,在物理世界中為我們做事情,則需要AI能夠感知物理世界的訊號,進行匹配具身的思考,通過裝置/機器人把決策轉化為執行,對現實環境產生直接影響。打個比方,LLM像是“未出山前的諸葛亮”,善於分析,以“隆中對”和劉備對談,出謀劃策,但限於“紙上談兵”;智能體則是“出山後的諸葛亮”,掌握全域情報,運籌帷幄,組織資源、調兵遣將,親自率軍北伐。智能體以LLM為代表的前沿模型作為大腦,通過軟體工程令其可以在高階目標驅動下完成複雜任務。可以說未來大部分的複雜AI應用都會以Agent為載體。事實上,我們在科幻作品中所看到的AI形象,比如《鋼鐵人》中的賈維斯或《2001:太空漫遊》中的HAL 9000,正是創作者對以Agent為載體的未來AI的直觀想像。只是和物理世界交換的AI本身就極為重要和複雜,現在習慣上把這部分單獨放在具身智能/機器人領域討論。智能體能力的構成為了在各行各業的應用中發揮出顯著價值,理想中的智能體需要具備幾個關鍵條件。首先,智能體應具備強大的目標理解和規劃能力來體現智能的自主性。理想狀態下,人類只需給出抽象目標,智能體便能理解目標、拆解任務、規劃行動,並在儘量少的人工干預下完成執行閉環。就像影《星際穿越》中的機器TARS,在緊急情況下能夠根據"拯救宇航員"這一目標,自主判斷局勢、制定和調整行動策略,甚至做出犧牲自己資料的決定來完成使命。這要求機器智能有深度“理解/思考”能力(推理、規劃、決策),能夠敏銳的決策,能夠基於執行結果與環境反饋動態調整任務規劃,而不是僵化的執行既定路徑。其次,我們希望智能體能“動手”做事:執行和互動能力。這就意味著它能夠使用工具、執行操作,並能與外部環境發生直接互動。在數字世界中,智能體可以模擬人類操作,通過鍵盤輸入、點選螢幕的方式來完成任務;也可以通過其他程序或系統介面來呼叫工具;還可以發揮模型特長,通過編寫和執行程式碼來達成目的。在物理世界中,智能體則需要與各類控制系統和裝置相連接,通過下達指令來操控物理對象,將智能決策轉化為現實行動。第三,我們希望智能體具備出色的記憶與學習能力。記憶和狀態管理能力是完成長程、複雜任務的前提。在面向消費者的場景中,例如個性化的日程管理或長期服務支援,智能體需要跨會話地記住使用者偏好、歷史互動與長期狀態,才能減少重複溝通、提升服務質量;在企業級應用中,如跨周期項目管理、複雜業務流程推進等,則需要智能體記住任務進度、中間結果與關鍵決策依據,確保任務在長周期、多階段執行中保持連貫性,不中途偏離既定目標。學習能力的意義是我們希望智能體能持續提升,像人類員工一樣可以從職場小白通過經驗積累和吸收新知進化成專家。最後,智能體還需要有很強的可靠性、可控性,才能規模化的帶來價值。這既體現在智能體能否穩定、魯棒的完成任務,也體現在其行為是否始終與人類的真實意圖與價值觀保持一致。在《2001:太空漫遊》中,AI為完成任務選擇犧牲人類乘員,正是目標函數與人類價值未能有效對齊的極端後果。隨著智能體智能水平與自主性的提升,這類對齊失敗帶來的風險可能會被進一步放大。如何建構智能體有了理想的標竿,我們怎麼建構智能體?基本邏輯很簡單:以可獲取的最“聰明”、理想的模型為核心(大腦),通過軟體工程來搭建一個系統,彌補模型的不足,儘量逼近理想智能體的形態。大模型是目前智能體大腦的最優選擇,因為大模型的兆參數壓縮了人類積累的海量知識,擁有強大的模式識別和生成能力,是處理包括語言在內的多種非結構化資料的萬能介面,擁有不錯的泛化能力構成處理各類任務的基礎。而以OpenAI o1/DeepSeek R1為代表的新一代推理模型為智能體的發展進一步助推:加強的推理能力帶來更強的任務分解和規劃,更好的自檢和糾錯,也令智能體對工具的使用可以更加精準。大模型有一些結構性弱點,直接限制了智能體在真實業務中的應用價值,因此智能體工程的一大核心工作,就是在模型外圍,用工程手段補齊短板、設定邊界、約束行為。首先,大模型本身沒那麼可靠:存在無法根除的幻覺問題、知識時效性問題,任務拆解和規劃經常不合理,也缺乏面向特定任務的系統性校驗機制。這樣一來,以其為“大腦”的智能體使用價值會大打折扣:智能體把模型從“對話”推向“行動”,錯誤不再只是答錯問題,而是可能引發實際操作風險;而真實業務任務往往是跨系統、長鏈路的,一次小錯誤會在鏈路中層層放大,令長鏈路任務的失敗率居高不下(例如單步成功率為95%時,一個20步鏈路的整體成功率只有約36%)。為此,智能體工程通常通過以下幾類手段給大模型加“外骨骼”以改善可靠性:引入檢索與知識庫(RAG)以降低幻覺和知識陳舊的影響;預先設計和約束工作流,而不是完全自由的“自治智能體”,以此限定可接受的執行路徑;通過多次回答、自一致性檢查或模型間交叉驗證,識別並過濾高風險輸出;在關鍵鏈路節點上設定人工審批,讓人類對高風險動作“最後拍板”。其次,大模型的記憶能力有缺陷:大模型在訓練時“記住”了大量知識,但訓練完成後並不會在使用中持續學習、“記住“新知識;每次推理時,它只能依賴有限長度的上下文窗口來“記住”當前任務的資訊(不同模型有不同上限,超過窗口的內容就會被遺忘),而無法像人一樣自然地維持穩定、長期的個體記憶。但在真實業務中,我們需要機器智能有強大的記憶能力,比如一個AI老師,需要持續記住學生的學習歷史、薄弱環節和偏好,才能在後續的講解與練習中真正做到“因人施教”。針對這些記憶缺陷,智能體工程通常採取以下手段進行增強:建構外部記憶庫將使用者偏好、業務知識、歷史互動等儲存在資料庫中,智能體在需要時通過檢索機制按需提取相關資訊,應對長期記憶缺陷;對過長的上下文進行摘要和壓縮,保留核心資訊,釋放Token空間,來應對資訊過載導致的短期記憶遺忘。除了補短板,因為智能體要行動、要和環境互動,需要有感知和執行。首先,大模型本身無法主動感知,只能對輸入被動響應。智能體需要用外部感知元件來主動獲取環境資訊。對於數字世界的任務,通過智能體工程可以建立基於時間的觸發器,定期檢查日誌、郵件、股價變動等;或基於事件的訂閱、監聽,接收API推送的事件通知,或當資料庫發生變更時自動喚醒記錄資料。在物理世界中,智能體還可以通過感測器、攝影機、麥克風等裝置採集視覺、聽覺、觸覺等訊號。其次,大模型沒有天然的執行能力,需要輔以智能體工程來將意圖轉化為實際操作。工具呼叫是當前最主流的方式,大模型根據任務需求,生成結構化的函數呼叫指令,由智能體框架解析後執行相應操作,比如呼叫天氣API、資料庫查詢、傳送郵件等;另一種方式是模擬人類操作,通過視覺識別和模擬操作來“看螢幕、點按鈕、填表單”來完成任務,近期大火的豆包手機就是這樣完成智能體操作;對於更複雜的任務,智能體還可以配置程式碼直譯器(Code Interpreter / Sandbox),讓模型程式設計運行,這可以極大的擴展智能體的行動邊界。當下智能體的能力邊界剛剛過去的2025年被不少AI從業者和科技媒體稱作“智能體元年”。這個觀察是較為準確的,得益於以下幾個條件的成熟,過去一年左右的智能體發展進入快車道:首先是大模型的持續進步,主要體現在推理模型的出現提供了更強的任務理解、規劃能力,以及多模態模型的發展為智能體能夠處理和生成更複雜的資訊提供了基礎。其次是基礎設施和生態的成熟,包括LangChain、AutoGPT等開源框架經過兩年的迭代,已經形成了一套標準化的開發範式,極大地縮短了開發周期;Dify、Coze(扣子)等低程式碼/無程式碼平台的普及,讓不懂程式碼的業務人員也能通過拖拉拽快速生成一個專用智能體;值得一提的是2025年Anthropic發佈的MCP(模型上下文協議)和skills(技能系統)給智能體生態提供了重要的標準和啟發:MCP作為一個開源協議標準,令大模型與外部資料來源或工具之間的互動更統一、便捷,Skills則是把人類設計的完成某類任務所需的能力/工作流打包起來,讓Agent在這類任務上可以更穩定的工作,雖然技術含量不高,但在當下有很強的實用性。再次,學術界和產業界都有大量的人才、資源投入到智能體領域,以ACL(國際計算語言學協會年會)2025為例,有超過230篇論文和智能體相關,為歷年最高,涵蓋規劃、工具使用、多智能體協作與評估等多個方向。在能力的提升、生態的健全、資源的投入影響下,各行各業正在嘗試把智能體真正的用起來。根據麥肯錫2025年全球調研顯示,約62%的受訪組織已在部分業務中嘗試智能體(23%為至少一個場景的規模化部署,39%為試驗性應用);但從業務職能的具體採用資料來看,產業對智能體的應用還處於早期階段:根據該調查,對於智能體應用最多的職能依次是IT、知識管理、行銷和服務,以應用最多的IT為例,僅有2%和8%的受訪企業IT部門全面規模化(Fully Scaled)和規模化(Scaling)的應用智能體,以及6%和7%的企業IT部門試點(Piloting)和試驗(Experimenting)的應用。造成這種規模化應用水平較低的原因有兩方面,一是前面討論的智能體能力問題,雖然在快速進步,但離全面的實用性還有距離;二是各行各業的企業應用者要把智能體用好還需要一些自身條件的配合。第一方面,除了短任務鏈條的資料分析、生成、檢索等方面的應用,智能體現在規模化應用場景大體可以概括為兩類,一是在程式設計領域,程式設計是智能體最理想的"練兵場",環境隔離、容錯率高,目標明確、目前規劃能力能應對,程序可執行,還有即時的執行反饋。這令其成為智能體第一個大規模、商業化的突破口。二是在各行各業的各種業務(銷售、客服、人力等)的專用智能體可以集合成一個大類,有一個共同點:目前主要是工作流自動化類型,其實這也是應對智能體深度理解(規劃、決策)能力不足的權宜之計,通過把智能體的任務的開放性降低、給出參考工作流程、定義可用的有限工具集等來提高智能體在這些任務上的工作質量。智能體進一步的規模化應用需要其能力進化,為企業能夠帶來切實的價值。第二方面,企業要用好智能體需要組織和資源上的匹配。根據Anthropic 2026年的最新調研,46%的受訪者表示與現有系統的整合是智能體部署的主要障礙,43%和42%的受訪者分別指向實施成本和資料的可及性/質量,40%和39%的受訪者表示安全/合規和員工的學習成本/抵制是重要障礙(中小企業尤其擔心學習成本,51%的受訪者指向這一點)。對於企業的顧慮,成本、安全等問題和技術進步的關係較大,但資料問題、整合問題、學習或人才問題都是需要企業通過組織變革、進一步數位化和全員的學習來提升。總結與展望未來,智能體將會是我們在各行各業、各種場景應用人工智慧的主要載體。可以預見,隨著模型能力和智能體工程的進步,企業資料治理和組織適配的提升,智能體會逐步成為每家企業極有競爭力的數字員工,和我們人類員工競爭與協作。從路徑上看,前面提到現在智能體規模化應用集中在程式設計和工作流自動化方面,隨著機器智能深度理解水平的提升,可以預期智能體的應用會不斷拓展邊界,能承擔更抽象、複雜的任務,更多的自主規劃和決策,來把人類的意圖轉化為結果。當然,突破不等於拋棄工作流。在企業高風險場景裡,工作流/權限/審計會變成“護欄”,用來限制智能體的行動空間,以確保應用的安全。在相當長的時間內,人類的審批、審計在智能體工作的閉環中可能都是不可缺少的。智能體發展的另一個關鍵方向,是成為人類的“個人助手”或“智能代理”。與其他類型的智能體相比,這一方向的門檻更高,因為它需要更強的個性化能力、長期記憶、跨場景泛化能力以及更嚴格的安全邊界。個人助手型智能體有潛力重塑人類與世界的互動方式——無論是購物、社交,還是資訊獲取——並可能對很多產業的商業邏輯產生顛覆性影響。過去一年中,“豆包手機”的推出,以及2026年年初爆火的“OpenClaw”,讓我們看到了助手型智能體的一些早期探索,令人振奮。前者代表了裝置級智能體的嘗試:它將智能體能力深度嵌入作業系統,通過模擬人類操作以調取各類App,為使用者完成任務。後者則是一種始終線上的解決方案,能夠主動觀察與執行任務,並通過本地部署獲取豐富的個性化資料和軟體控制權,初步體現了個人助手型Agent的一些核心特徵。根據IDC的預計,活躍智能體的數量將從2025年的約2860萬,攀升至2030年的22.16億。這意味著五年後,能夠幫助企業或個體執行任務的數字勞動力數量將是現在的近80倍,年複合增長率139%;任務執行的數量將從2025年的440億次暴漲至2030年的415兆次,年複合增長率高達524%;Token的消耗將從2025年的5000億激增至2030年的1.5兆億,年複合增長34倍。IDC的預測未必精準,但趨勢非常明顯,每一家企業都要為此做好準備。 (FT中文網)
“20世紀發明的所有職業,都難逃AI的衝擊”
《黑天鵝》作者、以毒舌和高智商著稱的納西姆·塔勒布最近發了一條推文,只有一句話:“20世紀發明的所有職業,都難逃AI的衝擊。”很多人看到這句話,可能會想:這不是又在危言聳聽嗎?AI已經被鼓吹了好幾年了,該來的還沒來,說好的白領失業潮呢?但非常有意思的是,在塔勒布發出這條推文的整整一年前,我就對我的星球會員提出過一個幾乎一致的判斷和觀點:AI和機器人取代技能的方向,是和人類發展的歷史反著來的。出現得越晚的、離我們越近的技能,越可能最早被替代。我將其稱為“AI替代的逆向歷史演化定律”。人類文明技能的演化順序是怎樣的?第一階段是體力與空間感知(農業、狩獵、採摘);第二階段是物理工具與精密製造(工業革命、手工藝);第三階段,也就是20世紀才大規模爆發的,是抽象符號與資訊處理(財務分析、程式碼編寫、法律文書、中層管理等坐在寫字樓裡吹空調的“白領工作”)。而殘酷的真相是:AI和機器人取代人類的順序,恰恰是跟人類歷史的發展反著來的。出現得越晚的、距離我們越近的、看起來越“高級”的抽象腦力技能,最早、也最容易被大模型連根拔起;反而是那些最古老的技能(如理髮、按摩、修下水道、甚至端盤子),因為涉及複雜的現實物理互動,反而擁有最深的護城河。塔勒布說的是20世紀發明的所有工作,我說的是越晚出現的越先被替代,其實異曲同工,核心邏輯是一致的。它們指向同一件事,白領工作,作為20世紀最重要的發明之一,正處於這場風暴的絕對中心。白領工作最壞的時候,還遠遠沒有到來。正如《大西洋月刊》最近的一篇深度報導中所比喻的:“任何見過鯊魚背鰭露出水面,隨後又消失不見的人都知道,這絕對不是什麼讓人安心的跡象。”為什麼最懂AI的人在紛紛離職:“我凝視過無盡的黑夜”一、嚴肅媒體開始頻頻發出警報先說一個背景,讓那些覺得"AI威脅被誇大"的讀者先冷靜一下。《大西洋月刊》在過去兩周內,連續發表了三篇長文,專門討論AI對白領就業的衝擊。三篇文章,三個作者,三個角度,但一篇比一篇嚴峻。第一篇,《美國尚未準備好迎接 AI 對就業的衝擊》。作者喬什·泰蘭吉爾(Josh Tyrangiel)走訪了經濟學家、聯儲官員、工會領袖、前政府高官,最後得出一個讓人不安的結論:所有的緩衝機制都失靈了,政治系統沒有能力應對這場衝擊。第二篇,《AI智能體正如風暴席捲美國》,記者里拉·什羅夫(Lila Shroff)描述了AI智能體工具的爆炸性發展。兩個沒有工程背景的記者,用不到一小時"氛圍程式設計"出了Monday.com的競品,當天Monday.com股價應聲暴跌。第三篇,也是最近一篇,《白領工人最糟糕的未來》,作者是經濟記者安妮·勞裡(Annie Lowrey)。通過分析就業資料,她得出結論:擁有學士學位的美國人佔到了失業人數的四分之一,創歷史新高;高中畢業生比大學畢業生更快找到工作,這是從未有過的趨勢;容易被AI自動化的職業,失業率出現了急劇飆升。《大西洋月刊》不是小某書,不是財經自媒體。它是創辦於1857年的嚴肅刊物,發表過馬丁·路德·金的文章,出過無數普利策獎作品。它在兩周內連發三篇長文討論同一件事,本身就是一個訊號。其實,就在不久前,大西洋月刊還認為AI的泡沫即將破裂。這種反轉顯然不是在追熱點,而是試圖精準捕捉一個正在發生的歷史性事件。二、你不知道的,才是最危險的在這三篇文章裡,第二篇讓我印象最深。不是因為它最嚇人,而是因為它精準描述了一道正在撕裂的鴻溝。作者什羅夫說,美國人現在活在兩個平行的AI宇宙裡。大多數人的AI認知,停留在ChatGPT,還是免費版本。它能幫你起草一封郵件,寫一段行銷文案,回答一個問題。有點用,但也就那樣。你用它,就像用了一個更聰明的搜尋引擎。但另一批人,如工程師、研究人員、科技圈深處的人,正在被另一類工具"激進化"。這些工具叫做AI智能體(Agent),它不是聊天機器人,它是能獨立工作的數字員工。什麼是智能體?它不再是被動等待你輸入指令的對話方塊,而是具備“代理性”(agentic)的虛擬員工。你給它一個宏大的目標,它會自己去拆解任務、自己上網搜尋、自己寫程式碼、自己運行測試、自己糾錯,甚至幾個AI之間會拉個群“討論”工作。區別在那裡?聊天機器人等你問,它才回答。智能體收到任務後,會自行規劃步驟,呼叫工具,搜尋資訊,自主執行,連續工作數小時,中間不需要任何人介入。Anthropic的員工鮑裡斯·切爾尼描述Claude Code時說了一句話,讓人久久回味:"Claude開始想出它自己的主意,並且正在主動提議要建構什麼東西。"不是被動執行,是主動提議。當電腦開始能夠自主使用電腦,人類引以為傲的所謂“認知壁壘”和“名校學歷”,在不知疲倦、算力無限的Agent大軍面前,顯得極其可笑且脆弱。工具變成了能夠自主思考和執行的“同事”,甚至,它們很快就會變成你的“領導”。在過去,人類程式設計師同時只能開一個腦線程寫一段程式碼;而現在,一個老手可以同時開啟十幾個Agent會話,讓它們分頭處理資料庫、前端、演算法。軟體程序的容錯率極低,行就是行,不行就是不行,這種非黑即白的特性讓程式設計成為了自動化最完美的試驗田。目前,Anthropic公司內部90%的程式碼已經是AI生成的。這兩個宇宙之間的距離,比多數人意識到的要大得多。一邊的人覺得AI威脅被誇大;另一邊的人已經用AI把幾個月的工作壓縮排了幾天。他們描述的不是同一種工具,他們生活在不同的時間軸上。這道鴻溝不會永遠存在。當那些更易用的智能體工具從工程師的終端走向每一張辦公桌,兩個宇宙就會合併,只不過方式會很殘酷。三、歷史的倒帶,以及為什麼白領最脆弱說說我一年前的那個判斷。人類積累技能的歷史,是一條從身體到大腦、從具體到抽象、從感官到符號的長路。最古老的能力,如用手打磨石器、用鼻子分辨植物、用腳感受土地的軟硬,這些技能藏在人類幾百萬年的進化裡,AI很難複製,因為它們需要具身的存在,需要真實的物理反饋。但20世紀"發明"出來的那些腦力勞動,如分析報告、起草合同、處理會計帳目、管理項目流程、協調跨部門溝通等等,這些技能的本質,是資訊的處理、分類、轉化和傳遞。而這,恰恰是AI最擅長的事。換句話說,人類花了數百萬年進化出來的身體技能,反而是AI最難攻克的;人類花了幾十年訓練出來的認知技能,正在被AI幾年內系統性地覆蓋。這就是一種"倒帶"的邏輯。《大西洋月刊》的資料印證了這一點。在美國,高中畢業生比大學畢業生更快找到工作,這在歷史上從未發生過。水管工、電工、暖通技術員的位置,目前是安全的,因為安裝一套製冷系統,你需要手,需要身體,需要那種只有在具體空間裡才能發展出來的判斷力。反倒是那些花了四年大學、兩年研究生、幾年工作經驗,練就了"寫報告、做分析、管流程"能力的人,現在坐在AI的射程正中央。在《白領工人最糟糕的未來》一文中,安妮·勞裡在文章裡用了一個詞組:womblike security,子宮般的安全感。她說,對受過良好教育的人來說,勞動力市場歷來擁有一種子宮般的安全感。經濟衰退來了,失業的是藍領;產業轉移了,受傷的是工廠工人;這批人總是能在風暴裡找到庇護。如今,白領的這種安全感,正在率先消失,這種長達半個世紀的錯覺即將被終結。20世紀70年代,機械自動化的進步摧毀了底特律、匹茲堡的藍領社區,留下了至今無法恢復的“鐵鏽地帶”;後來,全球化又讓一批製造業工人黯然退場。他們變得更窮、更不健康,甚至壽命縮短。現在,這場歷史的絞肉機,終於開進了CBD的甲級寫字樓。為什麼白領的危機比藍領更致命?因為藍領失業,社會還有一定的心裡預期和廉價的兜底方案;但整個社會的福利系統,根本托不住跌落的中產階級。更致命的是,這是一場“結構性失業”,而不是“周期性失業”。過去經濟不景氣,你熬一熬,等經濟復甦了公司還會把你招回去。但AI帶來的結構性失業意味著:企業一旦打通了AI工作流,發現不僱傭你反而利潤更高時,那個崗位就永遠地消失了。那些初級的白領工作(資料整理、基礎分析、初級法律文書、文案撰寫)將首當其衝被清零。年輕人的晉陞階梯被直接抽走,而那些拿著六位數高薪的中層管理人員,一旦失業,可能將面臨長達數年的空窗期,因為根本沒有那麼多需要“人力協調”的崗位留給他們了。富裕階層對即將到來的就業市場毫無經驗。當白領階層失去收入,他們會削減開支,緊接著,雜貨店、餐廳、理髮店、房地產全盤崩潰,全社會將陷入一場由技術引發的深度通縮陷阱。四、為什麼還風平浪靜:精英集體裝睡,經濟學家“看後視鏡開車”有人可能會說:AI威脅說了這麼久,但失業潮並沒有真正出現啊?這個問題恰恰是盲區所在。《美國尚未準備好迎接 AI 對就業的衝擊》一文,揭露了這種“風暴前夜的寧靜”背後的系統性失靈。首先是經濟學家的盲區。經濟學家的工具,只擅長解釋已經發生的事,對正在發生的事無能為力,對即將發生的事更是兩眼一抹黑。這幫世界上最聰明的大腦,受制於必須看實打實的統計資料。他們總喜歡用歷史上的通用技術(如電力、網際網路)來套用AI,認為“技術的消化需要幾十年時間”。芝加哥聯儲行長奧斯坦·古爾斯比(Austan Goolsbee)被問到同樣的問題時,給了一個"答非所問"的回答:經濟學家受制於數字,從數字上看,目前沒有跡象表明AI已經侵蝕了勞動力市場。但他同時承認,有一個讓他搞不懂的矛盾:生產率資料非常高,這和"勞動力囤積"的假設對不上。公司到底在用AI做什麼?資料還解釋不了。"要好幾年才能知道答案,"他說。但弗吉尼亞大學的經濟學家安東·科裡內克(Anton Korinek)一針見血地指出了同行的荒謬:“機器一直都是愚蠢的,所以鋪開使用需要時間。但現在它們(AI)比我們聰明,它們是可以‘自行鋪開’的。”AI不需要你拆毀舊工廠重建,它只需要幾行API介面。經濟學家們試圖用過去作為固定點來衡量未來,這無異於“只盯著後視鏡在懸崖邊飆車”。科裡內克還說了另一件事,讓人印象深刻:他是Anthropic經濟顧問委員會的成員,他定期和Anthropic內部的人交流。他說,"每當我和西海岸實驗室的人交流時,我並沒有覺得他們是在人為地炒作他們的產品。我通常的感覺是,他們和我一樣感到恐懼。"最瞭解這項技術的那批人,感到恐懼。正如我們在之前的文章中所介紹的,最懂AI的人在紛紛離職,因為他們“凝視過無盡的黑夜”。其次是CEO們的“陽謀”。2025年初,有過一段短暫的時期,各大公司的CEO們爭先恐後地公開談論AI對就業的影響。Anthropic的CEO達里歐·阿莫戴伊(Dario Amodei)說AI可能在未來一到五年內消滅一半的初級白領工作;福特CEO吉姆·法利(Jim Farley)說AI將在十年內"毫不誇張地消滅一半的白領工人";OpenAI的薩姆·奧特曼(Sam Altman)說他和科技大佬朋友們在打賭,第一家只有一名員工、估值卻達十億美元的公司什麼時候出現。如今,他們都對類似的話題三緘其口,閉口不談了。這不是因為他們發了善心,而是華爾街的公關策略。他們正在經歷“勞動力囤積”的最後階段。大公司內部運行著比化石還古老的大型機(Mainframe),AI的接入目前卡在了這些陳舊的系統對接上。但只要這個介面一打通,等待白領的,就是一夜之間毫不留情的屠刀。泰蘭吉爾在他的文章裡提到一件事:他去採訪這些人。沃爾瑪、亞馬遜、福特、Meta,以及那些AI驅動型公司——Anthropic、Stripe、Waymo——的高管們,全部拒絕或忽視了採訪請求。就連代表美國最具權勢的200名CEO的"商業圓桌會議",也表示沒有什麼可說的。沉默,是資本收網前最後的偽裝。最後是失靈的政客。在這個顛覆性的力量面前,美國最高權力機構變成了一艘“幽靈船”。科技巨頭狂砸上億美元遊說資金,核心訴求只有一個:別管我們,讓我們全速前進。就是我們在昨天文章中所說的“加速主義”。也許有人會說:即使出現大規模失業,國家總會有辦法的吧?歷史上每次技術革命,社會都適應過來了。Lowrey的文章做了一件很重要的事情,她把這個安慰性敘事拆開來檢驗。美國有一套應對經濟衝擊的成熟工具:失業保險、勞動力再培訓、貨幣政策刺激、財政擴張。這些工具有一個共同的前提:衝擊是周期性的,就業市場會恢復,人們需要的只是一段過渡時間。但AI帶來的不是周期性失業,而是結構性失業。這兩者的區別是:周期性失業是需求暫時下降,過段時間企業又會招人;結構性失業是那批工作永遠不再需要了,企業不是在等待,而是在告別。勞動力再培訓計畫呢?研究的結論是"微乎其微且沒有定論"。有研究發現,這類項目對參與者、納稅人和整個社會都產生了"淨負面價值"。最後那張王牌是UBI,即全民基本收入,每人每月發1500美元,讓大家安心生活。矽谷領袖們最喜歡這個方案,奧特曼曾詩意地說,人們將被解放,花更多時間陪伴愛人、欣賞藝術、致力於公益。不過,UBI更可能是一個反烏托邦的結局,不是烏托邦。一個失業率徘徊在30%、靠政府發錢活命的社會,不是任何人想要生活的地方。更何況,那筆錢從那裡來?必然是對企業徵稅,而企業會拚死抵抗。工具失靈了,兜底網破了,政治上又有人在搶方向盤。沒有人準備好,所有人都處於一種被資本裹挾的“裸奔”狀態。前英國副首相尼克·克萊格(Nick Clegg)的判斷很直接:"這一時期所要求的變革速度可能遠遠超出它們目前顯然有能力交付的速度,如果民主政府隨波逐流地進入這個時期,那麼民主制度在這個考驗中是無法高分通過的。"七、AI的降維打擊,不分國界也許很多人會想,這都是美國的事,離中國還遠著呢。但AI是軟體,不尊重國界。在這種異星種能面前,人人平等。而且我們面對的處境,在某些方面比美國更脆弱:社會保障體系更薄,勞動者在這場對話裡幾乎沒有發言權,而"白領安全"的神話,在中國網際網路上比在美國更根深蒂固。那些覺得AI只是工具、威脅被誇大的人,大機率還沒用過那類真正的智能體工具。他們的AI認知,停留在ChatGPT幫人寫封郵件的階段。這不是他們的錯,因為這道資訊鴻溝本來就是結構性的,真正強大的工具還在技術圈內流通,還需要一定的門檻。現在最重要的分野,不是你學歷高不高、城市大不小,而是:你是否真正理解那些最前沿的AI工具能做什麼。這道認知鴻溝,正在決定人們在未來幾年處於那一側。那麼,作為個體的我們,該如何在這場大清洗中倖存?答案依然藏在那個“AI替代的逆向歷史演化定律”裡。既然20世紀發明的“資訊中間商”工作註定被消滅,我們就必須放棄對傳統白領路徑的迷信。我們需要向兩端突圍:1、向下紮根(重塑物理現實):掌握AI無法觸達的複雜物理環境技能,或者提供需要極高情緒價值、真實人際連結的服務。2、向上破局(成為AI的指揮官):既然Agent是世界上最聰明且最廉價的勞動力,那就不要試圖和它比拚表格做得快、程式碼寫得好,而是去僱傭它。鍛鍊你的頂層審美、複雜博弈能力和模糊環境下的決策力。白領時代的黃昏,註定是舊物種的安魂曲。寫字樓裡的工位正在一個個消失,這不是危言聳聽,而是正在發生的現在進行時。最壞的時候遠沒有到來,因為系統崩潰前的滯後掩蓋了技術的鋒芒。當冰面即將徹底破裂時,假裝歲月靜好是最愚蠢的策略。風暴已經在海上。我們連測量它的儀器都在被拆掉。多數人還在討論今天是否真的會下雨。 (不懂經)
AI Agent+醫療,七大公司!
AI Agent,即AI智能體,是一種能夠感知環境、自主決策並執行動作的智能實體。理想狀態下,人類只需進行預先設定目標並進行監督,AI Agent便可以全權自主完成具體任務。具體到醫療領域,AI Agent將覆蓋“預防-診斷-治療-康復”全流程,其核心價值在於融合多模態資料、最佳化決策效率並保障安全。近日,知名技術研究機構AIMultiple評選出全球七家典型醫療AI Agent公司。AIMultiple成立於2017年,致力於通過資料,幫助企業研究、篩選和評估前沿技術解決方案,為超過半數的《財富》500 強企業提供決策依據。智藥局已對這七家入選企業進行了整理彙總,以供行業參考。Sully.ai公司提供了一種覆蓋患者接診、編碼、計費和分診的智能體架構,專注於模組化的人工智慧代理(AI Agents),可自動完成病歷文件記錄、患者接診、預約安排及各類行政事務。核心功能包括:語音轉操作:通過語音識別技術,將醫生口述內容直接轉化為電子病歷(EMR)中的具體操作。符合 HIPAA 規範:確保所有資料處理與傳輸均滿足美國健康保險流通與責任法案(HIPAA)的合規要求。多語言支援:支援19種語言,滿足多元化語言環境下的使用需求。CityHealth將 Sully.ai 的AI醫療平台直接整合到其電子病歷系統(EMR)中,顯著減少了醫護人員在患者照護相關文書工作上所花費的時間。成效顯著:每位臨床醫生每天平均節省約3小時的病歷記錄時間 ,每位患者的營運操作量減少50%.Beam AI公司提供了一套面向醫療管理的多智能體系統,可自動化處理電子病歷管理、醫療帳單、合規事務、患者預約安排等任務。Avi Medical與 Beam AI 合作,部署了支援多語言的 AI 智能體。這些智能體能夠通過 API 訪問外部資料,從資料庫中檢索相關資訊,以回答覆雜的客戶諮詢。得益於此能力,AI 智能體成功處理了大量重複性、常規性的諮詢請求。成效顯著:80%的患者諮詢實現自動化處理,中位響應時間縮短了90% ,淨推薦值(NPS)提升了 10%。Innovaccer公司提供了一套專注於價值導向醫療(value-based care)和營運的 AI 智能體解決方案,其智能體主要用於輔助臨床決策,而非用於診斷。位於印第安納州的多專科醫生網路Franciscan Alliance 採用了 Innovaccer 的平台,以自動化其編碼流程。成效顯著:需人工處理的患者病例數量從約2600例減少至約1600例。Notable Health公司利用AI智能體自動化處理各類行政事務,包括患者登記、預約安排、轉診、護理授權和編碼等,並與電子健康記錄系統(EHR)無縫整合。北堪薩斯城醫院(NKCH)此前在患者簽到和登記環節效率低下。為此,醫院與Notable 合作,將疫苗預約等多項行政流程自動化。成效顯著:患者簽到時間減少超過90%,從原來的 4 分鐘縮短至僅10 秒;患者預登記比例從40% 提升至 80%。Hippocratic AI是一家專注於醫療健康領域的人工智慧公司,開發了首個專用於非診斷類(如患者互動、隨訪、保險協調等)及面向患者的臨床任務的大語言模型。該公司近期完成了一輪1.41 億美元的融資,估值達 16.4 億美元。WellSpan Health 與 Hippocratic AI 合作,推出了一款生成式 AI 醫療智能體,專門處理患者互動電話。該智能體可主動聯絡講英語和西班牙語的患者,回應其健康需求,並協助安排篩查預約。成效顯著:該系統已幫助WellSpan Health 成功聯絡超過 100 名患者,顯著提升了他們獲得關鍵癌症篩查服務的機會。Amelia AI公司的智能體能夠引導患者完成整個診療旅程,包括預約掛號、解答患者疑問,並提供富有同理心的對話式回應。Aveanna採用 Amelia AI 智能體,通過Workday系統和移動應用程式處理員工重複性的互動請求。該智能體現在可自動完成密碼重設、使用者身份驗證及其他人力資源相關任務。成效顯著:AI智能體每天處理超過 560 次員工對話;95% 的員工請求通過Workday聊天窗口得到解決。Cognigy公司開發的智能體是專為醫療健康領域打造的對話式AI助手,可協助處理保險理賠、處方續藥以及術後護理指導等任務。Cognigy開箱即用地支援 30 多種語音和數字管道,涵蓋 iMessage、WhatsApp、Twitter 等主流平台。Personify Pulse採用了 Cognigy 的解決方案,並將其與 Zendesk LiveChat 整合,以高效響應客戶諮詢。成效顯著:Cognigy的 AI 智能體在無需人工介入的情況下,獨立處理了 40% 的客戶諮詢。 (智藥局)
你追我趕!國產大模型春節檔密集上新
國產AI大模型春節檔密集發佈。在智譜正式推出新一代旗艦模型GLM-5,Minimax亦上線Minimax 2.5。同時,DeepSeek已在網頁及App端進行模型的版本更新,上下文窗口由原有的128K直接提升至1M(百萬Token)等級,能夠單次完成處理一部長篇小說。《科創板日報》記者獲悉,阿里千問的Qwen 3.5、字節跳動的豆包大模型2.0預計也將在春節期間發佈。從已發佈的模型來看,程式設計和智能體能力成為重點。但隨著智能體任務複雜度提升,單次任務的token消耗在急劇增加。若無法進一步降低成本,將影響未來AI的規模化落地。▌MiniMax、智譜瞄準AI程式設計2月12日,MiniMax正式上線最新旗艦程式設計模型MiniMax M2.5。作為全球首個為Agent場景原生設計的生產級模型,其程式設計與智能體性能 (Coding & Agentic)比肩國際頂尖模型,直接對標 Claude Opus 4.6,支援PC、App、跨端應用的全端程式設計開發,尤其在Excel高階處理、深度調研、PPT等Office核心生產力場景中均處於行業領先(SOTA)地位。M2.5模型啟動參數量僅10B,在視訊記憶體佔用和推理能效比上優勢明顯,支援 100 TPS超高吞吐量,推理速度遠超國際頂尖模型。而智譜在前一日推出的旗艦模型GLM-5,同樣主攻程式設計與智能體能力。GLM-5參數規模由上一代的355B擴展至744B,啟動參數從32B提升至40B。內部評估顯示,GLM-5在前端、後端、長程任務等程式設計開發場景中,平均性能較上一代提升超20%,真實程式設計體驗逼近Claude Opus 4.5水平。由於GLM-5的超強表現,智譜在港股近四個交易日實現翻倍,從203港元今日最高漲至443港元,收盤價已經逼近Minimax。過去一年,AI程式設計發展迅猛。Anthropic此前發佈的《2026年智能體編碼趨勢報告》中指出,傳統軟體開發的遊戲規則正在被徹底改寫。一個曾預計需要4到8個月的項目,使用Claude大模型後僅用兩周就完成。《報告》明確指出,程式設計師這一職業並不會消失,但那些“只會寫程式碼”的程式設計師將逐漸被市場淘汰。Anthropic的CEO達里歐·阿莫代伊在一年前就曾預言:“未來3~6個月,AI將編寫90%的軟體程式碼。”如今,這一預言正逐步轉化為現實。這或將對傳統軟體行業帶來影響。業內分析認為,AI智能體可以直接呼叫軟體底層系統,這動搖了傳統軟體“按人頭訂閱”的盈利邏輯,推動行業向“按使用計費”的模式轉型。▌智能體成為最核心的競爭主線CIC灼識諮詢TMT行業相關分析師對《科創板日報》記者表示,國產大模型競爭已從單純的參數規模競賽,全面轉向以技術差異化、應用場景深耕與成本效率為核心的新階段。春節期間及近期,各廠商的發佈與迭代均圍繞此主線展開。除了騰訊元寶和阿里千問等推出的行銷活動帶動市場對生態側的關注,近期字節跳動發佈的Seedance2.0、DeepSeek的V4模型和MiniMax上線的Agent平台等,從技術細節來看,無論是基座模型還是Agent的更新,都反映出智能體工程(Agentic Engineering)成為技術路線的重要競技場,AI企業對於模型的推理效率和長期任務表現更加注重,從大模型廠商當下模型設計的實際來看,產品形態也越來越Agent導向。圖片由AI生成灼識諮詢分析師表示,通用大模型在複雜業務邏輯和專業知識場景中表現有限。智能體通過整合領域知識、工具呼叫、工作流編排等能力,能夠深入垂直場景,提供專業化、自動化的解決方案,真正實現生產力變革。經歷近幾年的發展,市場普遍對於AI在實際場景中能夠帶來的真實價值更加關注,智能體是連結模型與使用者場景的關鍵一步,自然也是競爭的焦點。IDC中國研究經理孫振亞認為,大模型的能力正在從純粹的生成式輸出向智能體能力進化。“可以看到,各家模型廠商都在程式碼、多模態、長上下文和工具呼叫能力上做針對性的最佳化。程式碼和工具呼叫能力讓模型能夠進行執行和操作,多模態能力讓模型的感知從文字擴展至圖文音視訊,長上下文讓模型能處理更多的環境和記憶資訊。這些能力是模型能不能在更多場景中幹活並產出價值的基礎,也是智能體能力的重要組成部分。”▌AI規模化落地仍要過成本關談及AI規模應用的挑戰,CIC灼識諮詢TMT行業相關分析師表示,國內AI生態在晶片、框架、模型、應用層仍存在一些碎片化問題,需要進一步統一。在成本方面,他指出,從B端(企業端)來看,儘管API呼叫成本下降,但企業若追求私有化本地部署,一次性硬體投入和長期維運成本依然高昂且需要明確的業務價值閉環來證明投資回報,企業端部署的投入產出比(ROI)仍舊需要進一步驗證。孫振亞也表示成本是一大挑戰。隨著智能體任務複雜度提升,模型需要處理的上下文越來越長,呼叫鏈路越來越深,單次任務的token消耗在急劇增加。成本降不下來,智能體就只能停留在高價值場景,很難真正普及。另外,可靠性也是瓶頸。灼識諮詢分析師稱,一些行業對於可靠性要求極高,當前技術未能完全消除幻覺。孫振亞同樣指出,當前AI在執行複雜任務時的穩定性還不夠,模型依然存在的幻覺問題,使得複雜場景下多步執行非常容易出現錯誤累積。如果沒有可靠性,就談不上規模化落地。而在治理與信任方面,孫振亞表示,隨著AI從輔助工具走向自主執行,權限管理、審計追溯、責任界定這些治理能力必須跟上。“企業敢不敢讓AI去做決策、出了問題誰來負責、AI的操作過程能不能被審計。這些解決了,AI才會真正在各行業大規模落地。”灼識諮詢分析師還指出,在敏感領域,資料出域安全、模型訓練資料的合規性與質量、以及智能體互動中的資料隱私保護,也是規模化落地的主要障礙之一。 (科創板日報)
一人幹翻所有大廠!OpenClaw矽谷封神,開發者一夜爆賺兩億
【新智元導讀】矽谷新英雄OpenClaw之父豪言:本地AI智能體將滅掉80%App,人類從此只需「許下願望」,世界自動為你運轉!OpenClaw更是開啟兆美元應用新場景,社交套利從未如此簡單!這些天,矽谷正在經歷一場前所未有的瘋狂。OpenClaw之父,已經成為矽谷英雄——繼網際網路之後,他開啟了文明層級的又一次範式轉移。所有人類,正在站在被智能體接管的奇點前夜。剛剛,OpenClaw之父上了YC訪談,揭秘了OpenClaw這個爆款AI背後的頓悟時刻。他放下豪言:本地優先智能體,將「殺死」當今80%的應用;個人智能體,會徹底重塑軟體的未來!而且,如果還沒有用OpenClaw賺錢,你就out了。最近,已經有開發者僅投入2萬美元,就實現了4000萬美元淨資產的積累。許多人說,這就是OpenClaw的「十億美元級應用場景」!一個人幹翻所有大廠,2萬美元撬動4000萬?最近,一個「2萬美元變4000萬美元」的例子,在全網瘋傳。一個普通人用TikTok+OpenClaw,把華爾街按在地上摩擦。TikTok上,一條視訊突然爆了——一個女孩舉著星巴克的粉色星星杯,聲音都快破音了:「全城斷貨!真的買不到了!求代購!」對大多數人來說,這只是一條視訊,刷過去就算了。但對另一個人來說,這卻是一條交易訊號。就在視訊開始爆發的5分鐘前,他的OpenClaw已經完成了識別:抓取內容 → 判斷情緒強度 → 交叉驗證 → 匹配可交易標的 → 建倉。幾周後,華爾街的分析師們還在爭論著「節日促銷是不是一次性的」,他的收益曲線卻已經幾乎乎垂直:從2萬美元,滾到了4000萬美元。這不是運氣,也沒有內幕。只有一個人,一台電腦+幾千行程式碼,就完成了這場個人財富的翻倍。這種方法的關鍵,就在於交易中的情緒分析。例如,多項研究顯示,社交媒體可預測股票回報,產生 1-2%的超額收益。但由於僅有1%的訊號可能帶來可執行的交易,因此仍需人工驗證,從而在一個有80%的日內交易者虧損的領域中,降低情緒偏見。因此,開頭那個故事不是什麼新套路,只是被AI放大了。其實這種事,以前就發生過。2007年,Chris Camillo——一個沒背景、沒終端、沒華爾街人脈的普通人,靠的不是Bloomberg,而是眼睛,實現了財富暴增。他會去商場看排隊、看「sold out everywhere」,刷論壇、刷早期社交網站,比金融機構早幾個月意識到什麼在賣爆。初入股市三年時間,他的本金就翻了10倍,直接血賺。這個人後來成了社交資料智能公司TickerTags的首席執行長,也就是那個傳說中的「華爾街掃地僧」。之後,2006年12月1日至2013年11月30日的七年期間,他的投資組合年均回報率達到84%。他把這種交易策略叫「社交套利」,邏輯很簡單:消費情緒會在街頭、在手機裡先爆炸,股價在幾個月後才跟上。而今天,這種操作的問題不是「看不到」,而是「來不及」。情緒早已不在商場裡,而是在TikTok、X和評論區裡。但人類根本跟不上。TikTok上一個限量杯斷貨視訊在病毒式傳播,而高盛的交易員卻還在等財報電話會議,他們掃描的只是上個季度的影子。上文的研究表明:社交媒體情緒可以預測股票回報,大約有1–2%的超額收益空間。但現實是:99%的訊號沒法交易,而人類在驗證、猶豫、情緒波動中,把那1%也錯過了。於是,80%的日內交易者長期虧損。而AI來了,OpenClaw來了,「社交套利」有了新版本——它不走官方API(因為API有限制,且會被遮蔽),它直接模擬真實的人類瀏覽器行為。它不知疲倦,每5分鐘醒來一次,執行一套極其複雜的搜尋任務,然後把最有價值的情報喂到你的嘴邊。14小時,1605個訊號,平均每30秒就有一個潛在收益訊號。人類會累、會怕、會猶豫、會自我懷疑,但它不會。它不貪,也不慌,只是穩定執行。曾經需要6個月才能完成的社交套利窗口,現在被壓縮成幾天,甚至幾小時。MoonDev手動驗證過下面這些案例:星巴克節日杯的爆火,領先於財報;Lululemon瑜伽褲斷貨,提前抬高了市場預期;任天堂新配件賣空,直接帶動了整機銷量預期上抬。AI不負責「相信」,它只負責比你更早看到、比你更冷靜執行。人類真正剩下的價值,只在兩個時刻:極端節點的人工干預,或者乾脆躺平,什麼都不做,看曲線自己起飛。說到底,這不是什麼暴富神話,而是規則的變化。傳統交易就像下象棋,而OpenClaw則是給新手一台AlphaZero。它不一定永遠贏,但它永遠比你清醒。它能讓你的財富一夜從2萬翻到4000萬。本質上來說,這是「執行力×槓桿×時間壓縮」的AI魔法。這是散戶第一次在資訊速度上,把機構按在地上摩擦。「OpenClaw封神矽谷」,這絕不僅僅是一個梗,而是一個緊迫的訊號:普通人正在走向資訊平權,算力平權,執行平權。華爾街會花數億美元去買1毫秒的延遲,而一個2萬美元的指令碼,買到的是6個月的時間差。最鋒利的武器,從來不是槓桿,而是——你比別人更早知道,而且敢於執行!YC之父:80%的APP都會被殺死最近,那個讓整個網際網路「炸鍋」的男人——Peter Steinberger,開源AI智能體 OpenClaw 的創造者,上了YC訪談。在這次深度對談中,Peter不僅回顧了「靈光一現」時刻,也掀開了他那套驚世駭俗的開發理念——他說自己只是在「電腦上玩點小東西」,結果直接捲出了一整套未來生活方式。個性化智能體OpenClaw「殺死」當今80%應用你可能會問,現在AI助手滿天飛,為什麼偏偏是OpenClaw火了?OpenClaw在Github開放原始碼專案的Star數歷史Peter直接甩出一記重錘:「因為它真的能跑在你自己的電腦上。」這聽起來可能沒那麼驚豔,但別急——之前的那些智能體,不是在雲端動動嘴皮子、也能跑幾個任務流程嗎?OpenClaw不一樣,它可以連接你家裡的任何裝置,真·動手操作你的世界。「它能控制我的床墊溫度。」他說,「ChatGPT行嗎?」對話的高潮在於,Peter Steinberger給App的「死刑判決」——「未來80%的App,都會被AI智能體取代。」Peter Steinberger語氣平靜,像是在描述明天天氣可能下雨。但這是一記響亮的喪鐘。響在產品經理的腦袋裡,響在VC的估值報表上,也響在App的開發者心頭。為什麼App會死?Peter的答案簡單,但讓人無法反駁:我有了一個AI,它住在我電腦裡,會聽我說話,會看我的檔案,會幫我點外賣、回郵件、生成幻燈片、訂餐廳,還會提醒我「你最近運動太少」。、既然有更貼心的個人化的智能體,「那我還需要App幹嘛?」想訂餐廳?你只要說:「幫我訂個安靜點的日料館。」AI直接和餐廳溝通,或者,真的打電話讓人類幫你搞定。想記錄飲食?你不需要打開熱量計算App比如MyFitnessPal,點開食物條目,選份量,再手動輸入。你只要隨口說:「今天中午吃了個巨無霸。」AI記錄下來了,還會默默在你日曆上插個30分鐘的跑步時間段。你不再「作業系統」,而是「交代願望」。你不再「使用工具」,而是「觸發動作」。人類進入了「意圖即執行」的新時代。那什麼類型的App會先死?Peter很清楚地劃出一條界線:「只要是那種幫你「管理資訊」的App,全都要死。」代辦類、備忘錄類、打卡類、記錄類、資料整理類……它們的存在價值,在於你「沒地方交代這些事情」。但現在,你只要張口說話,OpenClaw就能:記錄、理解、歸類、調度、自動執行。一個智能體,就幹掉了五六個App團隊的功能線。只有少數幾類App,還有存在的意義:「它們得有感測器。」比如手錶收集心率、溫度感測器監測睡眠質量、攝影機識別家庭安全問題……這些硬體介面,AI暫時還得依賴它們。但那些「沒有物理輸入端」的軟體,就危險了。OpenClaw,是時代轉折的宣言:「你要的,不是一個又一個工具。而是一個理解你、行動力強、記得你的人格化智能體。」AI不是App的升級版,而是App範式的終結者。一旦你體驗過「說一句話,世界為你運轉」的流程,你就再也不想回到點點點的App介面!模型不是護城河,記憶才是OpenClaw可以清理你的收件箱,傳送郵件,管理日程,辦理航班值機。而這一切,只需要通過你日常使用的WhatsApp、Telegram或任何聊天應用即可完成。但OpenClaw真正的革命性,不只是「它能做多少事」,而在於它不屬於任何平台,只屬於你。這正是它和主流AI產品最本質的區別。今天市面上的AI助手,看起來方便,背後卻是一場資料封鎖戰。你說的話、上傳的檔案、生成的圖片、分析的內容,全都被收進雲端。而你,無法遷移、無法下載、無法帶走。你以為你擁有了一隻聰明的AI。其實,是平台悄悄擁有了你的全部生活軌跡。而OpenClaw,反過來了。所有記憶,保存在你本地電腦裡,純文字Markdown檔案。如果你願意,你可以手動刪除、匯出、加密、轉移,甚至拿USB 隨身碟插去別的電腦繼續用。這,就是在奪回資料主權。Peter說:「未來的AI世界,不該是平台主宰一切,而是使用者主宰自己的智能體。」他看得很清楚:模型再強,也會被下一代替代;算力再猛,也終將平價;介面再炫,也會被模仿。但一個人和AI共同經歷的記憶,獨一無二。這才是OpenClaw真正的「護城河」!它不怕你換模型,不怕你換電腦,不怕你斷網。只要你還有那一堆.md檔案,那段與你共同生活的記憶,它就能「原樣回來」,再度成為你的數字影子。這,是OpenClaw最溫柔、也最危險的野心:「讓每個人,都擁有一個只屬於自己的AI,而不是一份租來的雲端人格。」OpenClaw不是Peter的終點,而是每個個性化智能時代的起點。未來將屬於那些擁有自己AI、擁有自己資料、擁有自己靈魂.md的人。就像Peter所說:「你不需要被AI征服,你只需要找回對技術的掌控感。那是我們最早愛上電腦時的感覺。」 (新智元)